Wahlen werden längst nicht mehr nur an der Wahlurne entschieden. Die Bundestagswahl 2025 wird digital geprägt: in sozialen Netzwerken, Nachrichtenfeeds – und auf dunkleren Schauplätzen des Internets. Cyberattacken und Deepfakes sind reale Gefahren, doch mit Wissen, kritischem Denken und digitaler Kompetenz können wir diesen Bedrohungen begegnen.
Digitale Angriffe bedrohen die Resistenz demokratischer Prozesse. Die besondere Gefahr für die Bundestagswahl 2025 liegt in der Kombination aus technischen Angriffen, Social Engineering und gezielter Meinungsmache.
(Bild: PX Media - stock.adobe.com)
Digitale Angriffe bedrohen zunehmend die Resistenz demokratischer Prozesse. Cyberangriffe auf Wahlsysteme, gefälschte Videos in sozialen Medien und die geschickte Nutzung von Desinformation durch generative KI stellen Herausforderungen dar, die es in dieser Form noch vor wenigen Jahren nicht gab. Insbesondere Künstliche Intelligenz ermöglicht es Cyberkriminellen, ihre Strategien effizienter zu gestalten und ihre Angriffe mit größerer Geschwindigkeit und Präzision durchzuführen, wodurch sich die Bedrohungslage weiter zuspitzt.
Im SoSafe Human Risk Review 2024, einer jährlichen Studie zum Stand der Cybersicherheit in Organisationen, gaben acht von zehn befragten Sicherheitsbeauftragten an, dass die Cyber-Bedrohungslage in den vergangenen fünf Jahren noch nie so angespannt war wie heute. Fast ebenso viele Expertinnen und Experten (79 Prozent) erachten insbesondere die Nutzung generativer KI für Social-Engineering-Angriffe als besorgniserregend. Der Cybercrime Trends Report 2025, der in Kürze veröffentlicht wird, zeigt, dass bereits 94 Prozent der IT-Sicherheitsverantwortlichen im DACH-Raum eine KI-getriebene Cyberattacke auf ihre Organisation erlebt haben. Diese Entwicklung unterstreicht die wachsende Bedeutung digitaler Sicherheit – nicht nur für Unternehmen, sondern auch für den Schutz demokratischer Systeme.
Solche Inhalte entfalten ihre Wirkung nicht nur durch ihre virale Verbreitung, sondern vor allem durch ihre Fähigkeit, Misstrauen zu säen. Selbst wenn sie als Fälschung entlarvt werden, bleibt oft ein Zweifel bestehen – ein Effekt, der die freie Meinungsbildung und damit die Basis demokratischer Wahlen tiefgreifend erschüttern kann.
Auch Deutschland bleibt davon nicht verschont. Im November 2024 verdeutlichte ein mutmaßlich prorussischer Hackerangriff auf das Statistische Bundesamt, dessen Präsidentin zugleich Bundeswahlleiterin ist, wie verwundbar selbst staatliche IT-Infrastrukturen sind.
Die besondere Gefahr für die Bundestagswahl 2025 liegt in der Kombination aus technischen Angriffen, Social Engineering und gezielter Meinungsmache. Während Cyberattacken Wahlsysteme manipulieren oder lahmlegen können, untergräbt digitale Desinformation das Vertrauen in demokratische Prozesse.
KI-generierte Inhalte erschweren es zunehmend, zwischen Wahrheit und Fälschung zu unterscheiden. Diese Unsicherheit gefährdet nicht nur einzelne Wahlen, sondern langfristig das Vertrauen in demokratische Institutionen.
Wird eine Technologie, die das Potenzial hat, ganze Branchen zu revolutionieren, zur größten Bedrohung für die Demokratie? Die Antwort auf diese Frage liegt nicht in der Technologie selbst, sondern darin, wie wir als Gesellschaft lernen, mit ihr umzugehen.
Soziale Medien als Brandbeschleuniger für Manipulation
Die Algorithmen sozialer Netzwerke verstärken gezielt polarisierende Inhalte. Emotionale Reaktionen wie Empörung oder Begeisterung sorgen für hohe Reichweiten – oft zugunsten von Desinformation.
Der Reuters Digital News Report 2024 zeigt: 59 Prozent der Befragten sind besorgt darüber, im Internet auf falsche Informationen reinzufallen. Was früher durch Flugblätter oder gefälschte Zeitungsartikel geschah, passiert heute innerhalb von Sekunden – mit einer globalen Reichweite.
Soziale Medien sind ein mächtiges Werkzeug und haben das Zeug, gezielt Misstrauen und Chaos zu säen.
Die wirksamste Verteidigung gegen digitale Manipulation ist Wissen. Menschen, die in der Lage sind, Desinformation zu erkennen und sicher im digitalen Raum agieren, können Cyberkriminellen und politischen Manipulationsversuchen die Stirn bieten. Deshalb sind digitale Bildung, kritisches Denken und kontinuierliche Aufklärung essenziell. Wir müssen nicht nur verstehen, wie Cyberangriffe und Deepfakes funktionieren, sondern auch ihre psychologische Wirkung erkennen – etwa, wie sie Angst, Wut oder Dringlichkeit auslösen sollen. Wenn ein Video im Nachrichtenfeed starke Emotionen hervorruft, ist es essenziell, innezuhalten, die Quelle zu hinterfragen und die Informationen zu überprüfen. Durch eine gesunde Skepsis und ein ständiges Hinterfragen können wir uns effektiv gegen Falschinformationen wehren. Kritisches Denken und Medienkompetenz muss nicht nur in Wahlzeiten, sondern dauerhaft Teil des gesellschaftlichen Bewusstseins werden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Darüber hinaus ist eine klare Regulierung sozialer Medien erforderlich. Plattformen sollten verpflichtet sein, Deepfakes und manipulative Inhalte zu kennzeichnen und deren Verbreitung zu begrenzen.
Die Bundestagswahl 2025 wird mehr als eine Abstimmung über politische Programme sein. Sie wird ein entscheidender Prüfstein für die digitale Resilienz unserer politischen Prozesse.
Schon heute sehen 83 Prozent der Europäer und Europäerinnen Desinformation als Gefahr für die Demokratie an. Daher bedeutet der Schutz unserer Demokratie vor allem, Menschen zu befähigen, sich aktiv gegen Manipulation zu wehren – durch kritisches Denken, medienkompetentes Handeln und eine enge Zusammenarbeit zwischen öffentlichem und privatem Sektor. Nur wenn wir gemeinsam Verantwortung übernehmen, können wir die Widerstandsfähigkeit unserer Gesellschaft nachhaltig stärken.
Über den Autor: Dr. Niklas Hellemann ist CEO bei SoSafe.